課程資訊
課程名稱
腦理論
Brain Theory 
開課學期
109-2 
授課對象
學程  神經生物與認知科學學程  
授課教師
劉長遠 
課號
CSIE7434 
課程識別碼
922 U0100 
班次
 
學分
3.0 
全/半年
半年 
必/選修
選修 
上課時間
星期三7,8,9(14:20~17:20) 
上課地點
 
備註
曾修類神經網路。上課地點:資310。
限學士班四年級以上
總人數上限:30人 
 
課程簡介影片
 
核心能力關聯
核心能力與課程規劃關聯圖
課程大綱
為確保您我的權利,請尊重智慧財產權及不得非法影印
課程概述

Neural Networks
Syllabus:
Foundation
Perceptron
Multi-Layer Perceptron (MLP) plus tiling algorithm
Hopfield model
Elman Network
Self-Organizing Map (SOM)
Reinforcement learning (RL)

Lecture notes on Neural Networks, Cheng-Yuan Liou
see Class Websites:
https://www.csie.ntu.edu.tw/~cyliou/red/NN/Classinfo/classinfo.html

課程內容與類神經網路相同 作業與 project 一樣  

課程目標
classification, recognition, learning

註: 要加選同學請自行上網加選 
課程要求
project, home assignments, exam
只需 Basic Calculus

作業 第二部分(II), 與 project 任一題作完整 學期成績 A-
兩題都作完整 學期成績 A

Skip: 作業 第ㄧ部分(I)
tiling algorithm
code + ppt in
https://www.csie.ntu.edu.tw/~cyliou/red/NN/Demo/demo.html
paper in
https://pdfs.semanticscholar.org/a8c9/c463b17a63380f3dd0d62e034d9c76411de2.pd做出 paper 內的 Table 1數據

作業 第二部分 (II)
Uni-perceptron (augmented bi-perceptron)

Data set MNIST 數量{ pn , n=1 ~ 60000=N} , 多少屬性 D=28 X 28 pixels (B/W)
https://scidm.nchc.org.tw/dataset/mnist 手寫字
J=10 classes {C0, C1, C2, .., Cj, … , CJ=9}

步驟一
為每一個 pattern, pn? Cj , 找出屬於他的兩個集合 { pn1} 和 { pn 2}. { pn1} 含 784 個與pn 最近的patterns, pm ,但不屬於 pn的Class Cj,
{ pn1}={pm , m=1~784 | pm? Cj }.
做一個 hyperplane (784 dimensions)通過這 784個最近的 patterns, { pn1} . hyperplane 在 pn 的那一邊設定為為正號.

步驟二
{ pn 2} 含所有為正號的 patterns 且屬於Cj (與 pn在此hyperplane
同一邊). 正號的 patterns 數量為 |{ pn 2}| .
因此一共有 60000 個 { pn1} 和 60000 { pn 2}.

步驟三
找出{ pn 2}內與此hyperplane最近的一個 pattern, pu?{ pn 2} 將此hyperplane 平移到距此 pu一半的距離, 自pu作法線垂直於此 hyperplane.

步驟四
對任一class Cj 選 max{|{ pn 2}|; pn ? Cj }值為最大的集合 { pn 2}1 定出其平移後的hyperplane 為第一個得出的perceptron 的weights.
之後將集合 { pn 2} 內的patterns 從class Cj中剔除 從剩餘的集合內找出最大的集合, max{|{ pn 2}|; pn ? Cj and pn ? { pn 2}1}, { pn 2}2 定出其平移後的hyperplane 為第二個得出的perceptron 的weights. 注意 { pn 2}1∩{ pn 2}2 =.O
依此類推找出最少數量的幾個perceptron or neurons
{{ pn 2}1 , { pn 2}2 ,{ pn 2}3 ,…; { pn 2}a∩{ pn 2}b =.O for a≠b} 含所有Cj 內的 patterns , 這幾個 { pn2}a 之一與其對應的 hyperplane or perceptron 會對任一Cj 內的pattern 輸出為 正號 但對其他classes 的 所有patterns輸出為 負號 . (選最大集合及消去法 類似於 Chapter 3 內 bi-perceptron 最少量幾個寬帶狀 strips )


**** Project Chapter 6 ‘ETAM’ Eq.(7---12)

Project Chapter 6 ‘ETAM’ Eq.(7---12)
Code in https://www.csie.ntu.edu.tw/~cyliou/red/demo/hairy/index.html
'et-AM' ! 'C code' + 'M file'

Data set MNIST 數量P=60000 , 多少屬性 N=28 X 28 pixels (B/W)
Training dataset=55000 ; Testing dataset=5000.

Part I
https://scidm.nchc.org.tw/dataset/mnist 手寫字
Window size = 5 X 5 pixels (convolution)
Total neurons = 28 X 28=784 in square grid points
Total weights
=784 X 5 X 5 (including 4 edges and 4 corners) + 784 thresholds
Note: delete all weights outside the window for each neuron
Note that wij ≠ wji and wii≠0

Part II
Augument one standard digit for each handwritten digit in the dataset, see the 10 digits with 96 pixels (8X12) in Chapter 6.
Total neurons for the layer = 784 + 96
Total weights = 784 X 25 + 784 (thresholds) + 784 X 96 + 96X96+
96 (thresholds)
Then apply the algorithm in ETAM’ Eq.(7---12) training the neural network.
Any testing data will be associated with an unknown pattern, 96 pixels,
that has assigned with 96 ‘0’ as input..
Note that wij ≠ wji and wii≠0
** CNN hard for rotation and scale invariance.
Solved by vastly enlarging the dataset with different
rotations and/scales of patterns
** 4 X 2 replications of the saved dataset 圍棋 in training
 
預期每週課後學習時數
 
Office Hours
另約時間 備註: 預約時間 
指定閱讀
https://www.csie.ntu.edu.tw/~cyliou/red/NN/Classinfo/classinfo.html 
參考書目
lecture notes in
https://www.csie.ntu.edu.tw/~cyliou/red/NN/Classinfo/classinfo.html 
評量方式
(僅供參考)
   
課程進度
週次
日期
單元主題
第1週
2/24  Overview
Foundation
Chapter 1
Perceptron perceptron in Chapter 1 
第2週
3/03  MLP
Tiling algorithm
Chapter 4 + Chapter 3  
第3週
3/10  Chapter 6
RL  
第4週
3/17  RL paper
Neuronlike adaptive elements that can solve difficult learning control problems
https://ieeexplore.ieee.org/document/6313077

video MIT 6.S191 Lecture 6
https://www.youtube.com/watch?v=xWe58WGWmlk

Deep learning
Hinton's video  
第5週
3/24  Hinton's Deep learning
https://www.youtube.com/watch?v=AyzOUbkUf3M&t=637s
Lecture 10.5 — Dropout [Neural Networks for Machine Learning]
https://www.youtube.com/watch?v=vAVOY8frLlQ
Neural networks [5.1] : Restricted Boltzmann machine - definition
Hugo Larochelle
https://www.youtube.com/watch?v=p4Vh_zMw-HQ&t=222s

CNN
https://www.youtube.com/watch?v=WUZhLzaD3b8
http://yann.lecun.com/exdb/publis/pdf/lecun-01a.pdf

neocognitron
https://www.youtube.com/watch?v=Qil4kmvm2Sw
https://www.rctn.org/bruno/public/papers/Fukushima1980.pdf  
第6週
3/31  on language
NetTalk + BP
https://papers.cnl.salk.edu/PDFs/NETtalk_%20A%20Parallel%20Network%20That%20Learns%20to%20Read%20Aloud%201988-3562.pdf  
第7週
4/07  on language
Elman network
paper in
https://www.csie.ntu.edu.tw/~cyliou/red/Publications.htm
J.35. Cheng-Yuan Liou, Chen-Wei Cheng, Jiun-Wei Liou, and Daw-Ran Liou, Autoencoder for Words, Neurocomputing, vol. 139, pages 84-96, 2014.

Fathers of the Deep Learning Revolution Receive ACM A.M. Turing Award
https://www.youtube.com/watch?v=Zg9kgTQoskA&t=2714s

Geoff Hinton - Recent Developments in Deep Learning
https://www.youtube.com/watch?v=vShMxxqtDDs
Geoffrey Hinton: What is wrong with convolutional neural nets?
https://www.youtube.com/watch?v=Jv1VDdI4vy4
Geoffrey Hinton – Capsule Networks
https://www.youtube.com/watch?v=x5Vxk9twXlE 
第8週
4/14  交作業
SOM
The self-organizing map by T. Kohonen
https://sci2s.ugr.es/keel/pdf/algorithm/articulo/1990-Kohonen-PIEEE.pdf 
第9週
4/21  Chapter 5
SIR-kernel
SIR-som  
第10週
4/28  Hopfield model
https://www2.cs.sfu.ca/CourseCentral/414/li/material/refs/Lippmann-ASSP-87.pdf

http://www.bcp.psych.ualberta.ca/~mike/Pearl_Street/PSYCO452/pdfstuff/Supplements/Tank1.pdf

pattern recognition STD method
J.10. Cheng-Yuan Liou and Hsin-Chang Yang (1996). Handprinted character recognition based on spatial topology distance measurement. IEEE Trans. on Pattern Analysis and Machine Intelligence, vol.18, no.9, pages 941-945. 
第11週
5/05  Hopfield model
Collective Computation in Neuronlike Circuits
http://www.bcp.psych.ualberta.ca/~mike/Pearl_Street/PSYCO452/pdfstuff/Supplements/Tank1.pdf

self organizing map
J.25 + J.16 in
https://www.csie.ntu.edu.tw/~cyliou/red/Publications.htm
 
第12週
5/12  Komogorov theorem
MLP+NetTalk
Boltzmann machine
複習
STD + Capsule network
交 Project 
第13週
5/19  測驗 線上 考題 2:20pm 公布在此 答案 3:10pm 以前寄給助教
線上測驗 姓名 學號 系級
Neural Networks, final 測驗, 2021, 2:20pm-3:10pm, 總共四題

1. AI史上首先提出方法做到 “對任意, 灰階或binary資料庫, training data set 100% 正確率且可承受雜訊比SNR, 雪花型雜訊” 是哪一年?

2. 第五章直接算出 weights 不需要 training 的圖在哪一個投影片上第幾頁?

3. Chapter 3 與 Vapnik’s SVM(1992) 最重大區別是 (限二十字以內)

4. Uni-perceptron 的投影片與 code 在 red網站哪一部分? 投影片畫有哪五個 Uni-perceptron 的特徵 (限三十字以內)
{https://www.csie.ntu.edu.tw/~cyliou/red/NN/}

在 red網站哪一部分?
特徵一
特徵二
特徵三
特徵四
特徵五 
第14週
5/26  輔導
推薦閱讀
V-C dimension
https://en.wikipedia.org/wiki/Vapnik%E2%80%93Chervonenkis_dimension
https://www.youtube.com/watch?v=puDzy2XmR5c  
第15週
6/02  輔導
推薦閱讀 SVM by Prof. Patrick H. Winston
https://www.youtube.com/watch?v=_PwhiWxHK8o&t=13s  
第16週
6/09  寄給助教
交作業 + project 
第17週
6/16  輔導
推薦閱讀
On the Computational Complexity of Deep Learning
http://lear.inrialpes.fr/workshop/osl2015/slides/osl2015_shalev_shwartz.pdf